El hijo de un académico etíope asesinado tras ser señalado en Facebook: “No hicieron nada y tres semanas después, mataron a mi padre”

El 3 de noviembre de 2021, Meareg Amare Abrha, un reputado profesor de química con más de 40 años de experiencia, regresaba de la Universidad Bahir Dar, en el norte de Etiopía, cuando un grupo de hombres armados le disparó por la espalda a escasos metros de la casa donde vivía con su familia. Abrha quedó tendido en el suelo con múltiples heridas de bala en el pecho y las piernas mientras los agresores, que rodearon su cuerpo, advertían a los transeúntes que harían lo mismo con ellos si intentaban brindarle atención médica a aquel hombre, al que acusaban de haber cometido actos violentos contra la población de la región etíope de Amhara. Tras siete horas agonizando, Abrha finalmente murió desangrado.
Aquellos hombres habían identificado y encontrado al profesor a través de una publicación en la red social Facebook. El Tribunal Superior de Kenia, en una decisión sin precedentes adoptada el pasado 5 de abril, dictaminó que tiene compentencias para procesar a Meta, la empresa matriz de Facebook, pues en el momento en que los mensajes que apuntaron a Abrha fueron publicados, la supervisión de su contenido se llevaba a cabo en el centro de moderación de África Oriental, cuya sede se encontraba en Nairobi.
“Mi padre estaba desvinculado de la política. Pasaba la mayoría de su tiempo en el laboratorio de la universidad o en casa, y estaba completamente dedicado a su labor académica”, explica Abrham Meareg, el hijo del profesor, en la primera entrevista que concede para un medio en español. Sin embargo, el 9 de octubre de 2021, tres semanas antes del asesinato, una cuenta anónima de Facebook llamada “BDU Staff” —que en aquel momento contaba con más de 54.000 seguidores— publicó información relativa al profesor Abrha. La primera publicación contenía una foto de su rostro con las acusaciones de violencia contra población etíope y de esconderse en la universidad. Cientos de comentarios incitando al odio y a la violencia contra él llenaron las redes. Era un momento en el que Etiopía sufría una brutal guerra civil que enfrentaba al Ejército de Etiopía y el Frente de Liberación Popular de Tigray. Los ciudadanos de la región de Tigray, de donde era el profesor, vivían bajo una persecución generalizada y sistemática durante el conflicto, que duró desde 2020 hasta la firma del alto el fuego, en noviembre de 2022.
Al día siguiente, una nueva publicación desde la misma cuenta compartía otra foto suya con la dirección exacta de su casa, y alegaba que había participado activamente en masacres, que había colaborado con incursiones militares de los rebeldes de Tigray y que había robado grandes sumas de dinero. En tan solo dos días, las publicaciones alcanzaron a miles de usuarios, pero no a Amare Abrha porque ni siquiera tenía una cuenta de Facebook.
Tras la publicación de los mensajes, el hijo del profesor recibió una llamada de un amigo avisándole de que prestara atención a los comentarios. “Al principio, algunas personas intentaron defender a mi padre diciendo que solo era un profesor de química. Sin embargo, muchos otros empezaron a llamar a la acción, alentando a la gente a que dejaran de perder el tiempo en Facebook y lo atacaran directamente. En Etiopía, las publicaciones online tienen consecuencias muy reales fuera de internet”, explica a través de una videollamada desde Mineápolis, Estados Unidos, donde huyó después del trágico evento.

Consciente del peligro real que corría su padre, Abrham Meareg denunció inmediatamente las publicaciones: “Presenté decenas de denuncias a través del sistema de reporte en línea de Facebook. Hice todo lo que estaba a mi alcance para advertirles, pero Facebook no hizo nada. Tres semanas después, mataron a mi padre”. Ocho días después del asesinato, Meta finalmente respondió a la solicitud de Meareg. La plataforma reconoció que las publicaciones violaban sus normas comunitarias, tras lo cual retiraron el post, pero para entonces ya era demasiado tarde para salvar la vida de su padre. La segunda publicación tardó un año en ser eliminada.
Jurisdicción transfronterizaEn diciembre de 2022, Abrham Meareg, junto a Fisseha Tekle —exinvestigadora de Amnistía Internacional que fue blanco de campañas de odio en internet por su labor en defensa de los derechos humanos— y el Instituto Katiba —una organización keniana especializada en la protección de los derechos constitucionales—, demandaron conjuntamente a Meta por promover contenidos nocivos durante el conflicto armado en el norte de Etiopía. Lo hicieron ante un tribunal de Kenia a través de una petición constitucional, el mecanismo legal que este país establece para denunciar posibles vulneraciones de derechos fundamentales. La denuncia se efectuó en Kenia porque los moderadores de contenido de Facebook para África Oriental trabajan desde Nairobi, la capital del país.
En la denuncia, los demandantes expusieron que los algoritmos de Meta promocionaron contenido que condujo a la violencia étnica en la vecina Etiopía entre 2020 y 2022. Tras ser presentada, la empresa liderada por Mark Zuckerberg argumentó que los tribunales de Kenia, donde se encontraban los moderadores etíopes de Facebook en ese momento, no tenían jurisdicción sobre el caso. Sin embargo, el Tribunal Supremo de Kenia ha dictaminado que sí tiene competencias para procesarlo en el país. Este periódico ha contactado con Meta para incluir su versión de los hechos sin obtener, hasta el momento, ninguna respuesta.
“El hecho de que el caso se presente en Kenia tiene sentido ya que todas las decisiones relacionadas con la moderación de contenidos tenían lugar en Nairobi”, explica Alia al Ghussain, investigadora y asesora del equipo de Responsabilidad de las Grandes Tecnológicas de Amnesty Tech. Al Ghussain es la autora de ‘Una sentencia de muerte para mi padre’: la contribución de Meta a las violaciones de derechos humanos en el norte de Etiopía, un informe publicado por el departamento de Amnistía Internacional que se encarga de exigir responsabilidades en materia de derechos humanos a las grandes empresas tecnológicas. “Durante la investigación descubrimos que Meta no moderó adecuadamente el contenido antitigrayano que circulaba ampliamente en Facebook durante el conflicto en el norte de Etiopía”, apunta Al Ghussain. Sin embargo, destaca de que “lo más preocupante es que los algoritmos favorecieron la difusión del contenido debido a su modelo basado en la interacción”. “El sistema prioriza las publicaciones que generan más reacciones, comentarios y compartidos, sin tener en cuenta si el contenido es perjudicial”, afirma.
El sistema [de Meta] prioriza las publicaciones que generan más reacciones, comentarios y compartidos, sin tener en cuenta si el contenido es perjudicial
Alia al Ghussain, investigadora de Amnistía Internacional
Meta ha explicado públicamente que tiene la intención de apelar la decisión del Tribunal Supremo keniano. “En lugar de enfrentarse en los tribunales y defender sus acciones —o su inacción—, Meta ha retrasado y esquivado sistemáticamente el proceso argumentando que el tribunal no tiene jurisdicción. No se trata solo de una estrategia legal, sino que es una forma de eludir su responsabilidad. El juicio permitirá que los argumentos se evalúen por su verdadero fondo”, explica Tom Hegarty, director de comunicación de Foxglove, una organización británica que ha respaldado el caso de Meareg y Tekle.
“Lo que le pasó a mi padre no fue solo una tragedia, fue algo que se podría haber evitado. Facebook debe asumir su responsabilidad directa por incitar al odio y permitir la violencia contra él”, explica Abrham Meareg. Los demandantes exigen cuatro puntos a Meta: modificar el algoritmo que alimenta el odio y la violencia a través de la plataforma; invertir en moderadores de contenido locales que comprendan el contexto político y cultural; una disculpa pública por su falta de acción; y una compensación de unos 2.150 millones de euros para las víctimas para reparar el daño causado. “No podemos cambiar lo que le ocurrió a mi familia, pero sí podemos ayudar a evitar que le pase a otras personas”, expone Meareg.
Un precedente globalEsta no es la primera vez que Facebook recibe acusaciones de este tipo. Quien desveló por primera vez el rol de la organización en avivar la violencia étnica en zonas de conflicto fue Frances Haugen, una extrabajadora de la compañía que en octubre de 2021 reveló frente al Congreso de Estados Unidos cómo Facebook contribuyó a las masacres de musulmanes rohingyas ocurridas en Myanmar en 2017, lo cual la compañía admitió. Haugen filtró los conocidos como Facebook Papers, una serie de documentos que señalaban específicamente a los algoritmos de personalización de contenido de Meta como el principal factor de difusión de discursos de odio que incitaron a la violencia, la hostilidad y la discriminación en países como Myanmar, Etiopía, India y Sri Lanka. En un informe publicado por Global Witness en 2021 se dio también a conocer que el algoritmo de Facebook estaba amplificando contenido que violaba sus propias políticas sobre violencia y desinformación tras el golpe de Estado del ejército de Myanmar, en un momento en que este asesinaba a centenares de manifestantes en las calles.
Otra clave en la moderación de contenido es el idioma, un factor que organizaciones de derechos humanos atribuyen a una actitud neocolonial por parte de la compañía. “Meta ha sido criticada en múltiples ocasiones por el trato desigual que brinda a los países angloparlantes del Norte Global frente a los países no angloparlantes del Sur Global, lo que hace que los usuarios en algunos de los países más vulnerables del mundo estén aún más expuestos a la violencia”, reza el informe de Amnistía Internacional. Haugen puso sobre la mesa un dato atronador: “El 87 % del gasto destinado a combatir la desinformación en Facebook se invierte en contenido publicado en inglés, a pesar de que solo el 9% de los usuarios son angloparlantes”. Precisamente los posts que llevaron a la muerte del profesor Meareg estaban escritos en amárico, el idioma oficial de Etiopía.
Facebook distingue entre sus moderadores en Estados Unidos y algo que la compañía llama “el resto del mundo”. En 2023 Meta cerró el centro de moderación de contenido de África Oriental. En aquel momento, la compañía contaba con 260 trabajadores que moderaban el contenido para una población superior a 500 millones de habitantes. Ahora, el caso presentado por Meareg puede sentar un precedente mundial: “Que las grandes tecnológicas estadounidenses no puedan andar por el mundo haciendo lo que les da la gana sin rendir cuentas. El derecho internacional también se les aplica, y los tribunales africanos, al igual que cualquier otro tribunal, tienen todo el derecho de aplicarlo”, sentencia Hegarty.
EL PAÍS